FAQ
F.A.Q.
Domande - Risposte
il filtro antiduplicazione di Google
Internet Provider
Software
Internet Provider
mail marketing
preventivi Internet
supporto tecnico
sms da web
download
corsi
lavoro
pagamenti
Internet Provider
 
FAQ
faq
news
Applicativi asp
Motomania

il filtro antiduplicazione di Google

Sempre più webmaster creano siti basati su informazioni pubblicamente disponibili, come data feeds, articoli, news o blog. Il risultato è la proliferazione dei siti con contenuto duplicato, che offrono informazioni già reperibili altrove nel web.

Nei casi in cui questi siti sono basati esclusivamente su news feeds o data feeds via rss, il loro contenuto può risultare completamente identico ai siti sorgenti, eccetto per la struttura e design.

Tante copie dello stesso materiale nell’archivio di un motore di ricerca non fa bene, Google ha deciso quindi di spazzare via il contenuto duplicato per poter fornire risultati di ricerca più validi ai propri utenti.

I siti copiati e duplicati nella loro interezza sono stati quelli peggio colpiti. Se un webmaster pubblicava lo stesso contenuto su più domini (anche involontariamente, con un semplice domain alias attivato in buona fede) poteva subire la penalizzazione o anche rimozione di tutte le sue pagine. Siti che promovevano programmi di affiliazione hanno visto un notevole calo del loro posizionamento con relativo calo delle viste da Google. Sui forum specializzati il fenomeno iniziava a cadere nel mirino dei webmaster, la maggioranza dei quali concordava sul fatto che sono stati applicati dei nuovi filtri per i contenuti duplicati.

I contenuti duplicati non sono però sempre illeciti o inutili. La riproduzione di materiale divulgativo, comunicati stampa, e infine la diffusione di notizie via rss sono procedure del tutto lecite. Google ha anche un programma dedicato per la propria pubblicità contestuale nei feeds, quindi, in qualche modo può avere anche un interesse diretto per non penalizzare le pagine aggregate. L’esperienza invece è diversa: le pagine con le news feeds sono difficili da indicizzare, sono spesso penalizzate, fino a mettere in pericolo il ranking complessivo di tutto il sito.

Come sapere se una pagina è stata flaggata come “pagina duplicata”?

Copia un paragrafo intero della pagina ed incollala nel box di ricerca di Google. Se trovi il testo originale tra i primi risultati, ma la tua pagina non appare tra i primi, allora o ancora non sei stato indicizzato o la pagina è stata rimossa. Clicca anche sul link “ripeti la ricerca includendo i risultati omessi.”. C’è una buona probabilità che la pagina duplicata sia tra questi risultati, vale a dire che anche se la pagina non è stata rimossa dall’indice, è penalizzata e nascosta per via del filtro antiduplicazione.

Come evitare il filtro dei contenuti duplicati?

Senza voler difendere il plagio – anche a scuola è punito chi copia – esistono più metodi per acquisire contenuti esistenti e riusarli per creare contenuto nuovo, con l’intento di essere non solo utili al lettore, ma anche efficace contro i filtri di contenuti duplicati.

  1. Aggiungere contenuto unico alle pagine che includono contenuto duplicato
    Sulle pagine dove usi contenuto duplicato usa anche del contenuto unico. Non solo alcune parole chiavi o una barra di navigazione con link, ma cerca di aggiungere informazioni per coprire con testo originale il circa 20-30% del totale della pagina. Questo può ridurre il rischio del flag di pagina duplicata.

  2. Contenuto casuale
    Hai sicuramente visto quei box con il “Suggerimento del giorno”. Si tratta di uno script che aggiunge un contenuto random a periodi prestabiliti: quando lo spider torna sulla pagina troverà un nuovo contenuto. Uno script del genere può essere usato per visualizzare tante altre informazioni. Con la semplice variazione di qualche riga del programma ed un po’ di creatività puoi usalo per dare l’impressone che la pagina è aggiornata frequentemente, un’altra soluzione per evitare il filtro dei contenuti duplicati di Google.

  3. Contenuto unico
    Certo, il contenuto unico è la via più sicura verso il successo di un sito web, al meno per quanto riguarda il suo posizionamento nei motori di ricerca. E anche se qualche volta non puoi evitare l’aggiunta di informazioni già esistenti altrove, l’obiettivo finale deve essere quello di avere al meno la metà del tuo sito composto da materiale originale. Se la proporzione tra i contenuti originali e quelli duplicati è ben bilanciata, allora la penalizzazione del filtro antiduplicazione colpirà con meno probabilità l’intero sito. Alcune pagine potranno essere penalizzate, ma l’effetto del ranking negativo di queste inciderà meno sul resto delle pagine.

Garantirà tutto questo di avere un buon posizionamento? Non si sa. Il sito che mira al successo dovrebbe fornire esclusivamente contenuti originali. Qualsiasi altra cosa si può trovare altrove, quindi non ha particolare ragione per essere on-line. E se il tuo obiettivo non è quello di attirare visite dai motori con le pagine duplicate, allora tieni queste pagine in un’area separata, ed usa il file robots.txt per evitare la loro indicizzazione.


faq Indietro

 

Home | Chi Siamo | Contatti | Internet Provider | Software House | Active Web | Web Marketing | SMS | Realizzazioni | Preventivi | Supporto | Lavoro | Condizioni
RD Informatica - Str. Rupola 14 - 61122 Pesaro PU - Tel 0721 206238 Fax 0721 1835042 P.Iva 01241970415 - info@rdinformatica.com 
Estrattore Pagine Gialle
Applicativi asp
RD
Applicativi asp
Internet provider
Software House
Applicativi asp
SMS Web
Software SMS
Mailing Project